Pierwsze zastosowanie mechanizmów sztucznej inteligencji do zwalczania mowy nienawiści i agresji w sieci – badania zespołu prof. Michała Bilewicza

W najnowszym (majowym) numerze czasopisma „Aggressive Behavior” ukazał się artykuł zespołu pod kierownictwem prof. Michała Bilewicza, opisujący pierwsze zastosowanie mechanizmów sztucznej inteligencji (AI) do zwalczania mowy nienawiści i agresji w sieci.

W badaniach zastosowano bota (sztucznie stworzone konto posługujące się językiem w sposób automatyczny), który konfrontował się z wypowiedziami zawierającymi przemoc językową na kanałach jednego z mediów społecznościowych (reddit). Bot w systematyczny sposób komunikował dezaprobatę stosując jeden z kilku znanych psychologicznych mechanizmów ograniczających użycie mowy nienawiści (odwołując się do empatii bądź norm społecznych).

Badanie wykazało, że nawet jednorazowa konfrontacja z botem zmniejszała hejterską aktywność z danego konta w ciągu kolejnego miesiąca po spotkaniu z botem (zarówno w porównaniu do aktywności sprzed konfrontacji, jak i w porównaniu do kont, które nie natrafiły na bota). Interwencja dowodzi, że spokojne i empatyczne, choć stanowcze reagowanie na nienawistne wypowiedzi w internecie może skłonić hejterów do powstrzymania swojej aktywności bądź znaczącej zmiany sposobu komunikowania się w sieci.

Badania prowadzone były we współpracy z Samurai Labs, czołowym polskim start-upem działającym w obszarze sztucznej inteligencji, a projekt dofinansowany był ze środków grantu NCN Sonata Bis kierowanego przez prof. Michała Bilewicza.

Link do artykułu >>


Data publikacji: 29 kwietnia 2021